Google представила новую модель искусственного интеллекта Gemma, разработанную британским подразделением DeepMind. Эта компактная модель предназначена для разработчиков, предпочитающих работу с локальной моделью ИИ, минуя облачные сервисы. Две доступные конфигурации — 2 Gemma 2B и Gemma 7B — оптимизированы для работы на графических процессорах Nvidia и облачных процессорах Google Cloud TPU.
IT-гигант утверждает, что хотя модели 2B и 7B технически меньше других больших языковых моделей (LLM), они превосходят «значительно более крупные модели в ключевых бенчмарках», включая Llama 2 от Meta.
Google предоставляет Gemma разработчикам бесплатно через платформу Kaggle и ноутбуки Colab, а также через Google Cloud. Более мощная версия Gemma 1.5 Pro пока находится в разработке, и дата ее выпуска пока неизвестна.